本文参考 gemini-cli-openai 项目,把 Google 的 Gemini Code Assist 伪装成 OpenAI 接口,喂给 OpenClaw 使用,仅供技术交流! ✅ 准备工作一台 VPS(Linux 系统,用于运行 OpenClaw 和中间件)。一台本地电脑(Windows/Mac,用于获取 Google 登录凭证)。 第四步:修改 OpenClaw 配置最后,我们需要修改 OpenClaw 的配置文件,让它连接我们的本地中转站。 文件路径:/root/.openclaw/openclaw.json请覆盖修改以下两个核心部分(其他插件配置保持不变):1. 必须加上 openai/ 前缀,否则 OpenClaw 会误以为是 Anthropic 模型而报错。
,又有云端创意实践赛奖品拿,就分享下自己的经验吧废话不多说,现在进入正题主要问题:Gemini作为轻量云OpenClaw的基座问题现象:社区官方提供的自定义大模型接入教程https://cloud.tencent.com /developer/article/2625144留言板里Gemini成为重灾区我搭建的时候,还没有“使用GoogleGeminiAPI,以最新的Gemini3Flash模型为例”这个部分,不知道现在有了这部分介绍是否适配支持了 问题成因:1.腾讯云Openclaw应用管理里只有国产大模型,模型接入教程里又没有Gemini2.谷歌模型虽然有openAI通用接口,但接入配置json文件很奇怪,不能适配腾讯云openClaw接口3. 估计不少兄弟跟我想法一样,本着Gemini免费,轻量云便宜,我先试试水的心态4.归根结底,这一失败经历,劝退了一大批轻量云openclaw尝鲜人士讲道理:轻量云OpenClaw建站模板搭建的最新版ClawBot 就可以了6.现在按照教程开始你的Gemini+轻量云OpenClaw之旅吧openclawconfigopenclawdoctor--fixopenclawgatewayrestartopenclawmodelslist
适用版本:OpenClaw v2026.3.8+配置文件路径:~/.openclaw/openclaw.jsonOpenClaw 的核心能力通过 Skills(技能) 扩展实现。 所有技能相关的配置均位于 openclaw.json 文件的 skills 字段下。 若设置(如 ["gemini", "peekaboo"]),则仅列表中的内置技能可被加载。不影响通过 load.extraDirs 加载的外部技能或工作区技能。 若技能的 metadata.openclaw.skillKey 有定义,则以该值为准。 "}此配置等价于在 env 中设置 GEMINI_API_KEY,但语义更清晰。
适用版本:OpenClaw v2026.3.8+ 配置文件路径:~/.openclaw/openclaw.json OpenClaw 的核心能力通过 Skills(技能) 扩展实现。 所有技能相关的配置均位于 openclaw.json 文件的 skills 字段下。 若设置(如 ["gemini", "peekaboo"]),则仅列表中的内置技能可被加载。 不影响通过 load.extraDirs 加载的外部技能或工作区技能。 若技能的 metadata.openclaw.skillKey 有定义,则以该值为准。 " } 此配置等价于在 env 中设置 GEMINI_API_KEY,但语义更清晰。
内置技能(Bundled Skills) 随 OpenClaw 安装包(npm 或 OpenClaw.app)分发,作为基础能力集。 扩展路径:可通过 ~/.openclaw/openclaw.json 中的 skills.load.extraDirs 添加额外技能目录(优先级最低)。 技能格式与元数据规范 每个技能必须包含 SKILL.md,其头部使用 YAML Frontmatter 定义元信息: --- name: nano-banana-pro description: 通过 Gemini ": ["GEMINI_API_KEY"], "config": ["browser.enabled"] }, "primaryEnv": "GEMINI_API_KEY ": { "enabled": true, "apiKey": "your-api-key-here", "env": { "GEMINI_API_KEY
:聚合全球顶尖闭源模型(如 Claude、GPT、Gemini) Go 目录(opencode-go/...) 特性Zen目录(opencode/...)Go目录(opencode-go/...)定位全球多模态大模型代理中文大模型高性能托管代表模型claude-opus-4-6gpt-5.2gemini 内部机制:OpenClaw 将密钥同时注册给 opencode 和 opencode-go 两个运行时提供者。 选 Zen 目录 当: 你需要 Claude 的深度推理或 GPT 的代码能力任务涉及英文、多语言或跨文化内容依赖 Gemini 的多模态(图像+文本)理解 选 Go 目录 当: 主要处理中文长文档(如财报 你不再需要在“功能强大”和“响应迅速”之间妥协——只需根据任务需求,选择对应的模型前缀,剩下的交给 OpenClaw 自动路由。
独立+Agent+模式:通过+openclaw+agents+add+创建拥有独立身份、工作空间和会话状态的+Agent。 +注册与添加通道 首先通过+@BotFather 分别创建+bots+获取+Token,在+OpenClaw+中,使用以下命令添加: # 添加多个 Telegram 账户 openclaw channels 根据模型评测结果重新分配算力,以下可以作为参考:(可以让+OpenClaw+去自动设置) Gemini+3+Flash)+➔+投资分析+&+前端工程:追求极致的工具调用(Tool+Calling)速度和代码推导能力 /gemini-3-flash-preview", "fallbacks": [ "scnet/MiniMax-M2.5", "scnet/Qwen3 -235B-A22B" ] }, "models": { "google/gemini-3-flash-preview": {
最新版本直接集成 OpenClaw,可以通过 AionUI 启用 OpenClaw 来执行任务。提供更强大的任务处理和自动化功能。 内置 Gemini CLI,下载即用,无需额外安装;如果你已经安装了 Gemini CLI、Claude Code、CodeX、Qwen Code 等命令行工具,AionUi 会自动检测并为它们提供统一的图形界面 2、7×24 小时 AI 助理 这个有点像 OpenClaw(Clawdbot)一样,是一个有执行力的 Agent,而不仅仅是一个问答机。 支持从任何设备、任何地方访问 AionUi! 这一点还是和 OpenClaw 的广度集成还是有差异的,不过还在新版本已经集成了,这就不是问题了。 安装完成后,启动默认界面就是 Gemini CLI 模式,这是 AionUi 的内置 Agent。
OpenClaw 拥有超过 200 个可配置项,构建了极其灵活的系统。本文是 ~/.openclaw/openclaw.json 的完整字段参考手册。 primary: "openrouter/qwen/qwen-2.5-vl-72b-instruct:free", fallbacks: ["openrouter/google/gemini { enabled: true, maxBytes: 52428800, models: [{ provider: "google", model: "gemini prompt: "生成昨天的未读消息摘要", }, ], }, } 技能插件 (Skills) { skills: { allowBundled: ["gemini entries: { "nano-banana-pro": { apiKey: { source: "env", provider: "default", id: "GEMINI_API_KEY
"] } }, } 保存至 ~/.openclaw/openclaw.json 后,即可从该号码向 Bot 发送私信。 enabled: true, maxBytes: 52428800, // 最大 50MB models: [{ provider: "google", model: "gemini ackMaxChars: 300, }, // --- 记忆与搜索 --- memorySearch: { provider: "gemini ", model: "gemini-embedding-001", remote: { apiKey: "${GEMINI_API_KEY}", true, maxBytes: 524288000, // 500MB models: [{ provider: "google", model: "gemini
OpenAI兼容:底层基于标准OpenAI协议,完美适配OpenClaw及各类SDK。二、获取APIKey在使用OpenClaw之前,请先在Kilo平台完成注册:访问app.kilo.ai。 三、快速配置(CLI)OpenClaw提供了便捷的命令行工具来完成集成。 设置默认模型为智能路由"agents":{"defaults":{"model":{"primary":"kilocode/kilo/auto"}}}}2.指定具体模型如果你希望强制使用某个特定模型(例如强制使用Gemini Gemini3ProPreviewkilocode/google/gemini-3-pro-previewGoogle最新预览版模型。 动态发现:OpenClaw启动时会调用网关接口获取元数据(如上下文窗口、支持的功能),确保配置实时同步。
列出当前的图片模型回退链openclawmodelsimage-fallbackslist#向回退链中添加一个模型openclawmodelsimage-fallbacksaddopenrouter/google/gemini 移除回退链中的一个模型openclawmodelsimage-fallbacksremoveopenrouter/qwen/qwen-2.5-vl-72b-instruct:free通过设置回退,当主要图片模型不可用时,OpenClaw 额外提示:手动编辑配置文件除了使用CLI命令,你也可以直接编辑OpenClaw的配置文件(通常位于~/.openclaw/openclaw.json)来修改imageModel。 MiniMax-M2.5-highspeed"},"imageModel":{"primary":"moonshot/kimi-k2.5","fallbacks":["openrouter/google/gemini -2.0-flash-vision:free"]}}}}编辑保存后,需要重启OpenClaw网关服务使配置生效:openclawgatewayrestart。
根据 OpenClaw 的官方逻辑和最新社区实践,我整理了一份教程: 多 Agents 配置核心逻辑 在 OpenClaw 中,实现多 Agent 协作的关键在于 隔离(Isolation) 与 绑定 当你运行 openclaw agents add [name] 时,系统会在 ~/.openclaw/agents/ 下创建独立文件夹: agent.md:定义该 Agent 的“灵魂”(人格、职责、系统提示词 例如: 调度员(Manager):使用推理能力强的模型(如 Gemini 1.5 Pro)。 基础任务(Worker):使用响应极快的模型(如 Groq 驱动的 Llama 3)。 3、修改 openclaw.json 进行绑定 这是实现“互不干扰”的核心。 agents.list 中定义它们,并在 bindings 中设置路由: { "agents": { "list": [ { "id": "boss-manager", "model": "gemini
根据 OpenClaw 的官方逻辑和最新社区实践,我整理了一份教程: 多 Agents 配置核心逻辑 在 OpenClaw 中,实现多 Agent 协作的关键在于 隔离(Isolation) 与 绑定 当你运行 openclaw agents add [name] 时,系统会在 ~/.openclaw/agents/ 下创建独立文件夹: agent.md:定义该 Agent 的“灵魂”(人格、职责、系统提示词 例如: 调度员(Manager):使用推理能力强的模型(如 Gemini 1.5 Pro)。 基础任务(Worker):使用响应极快的模型(如 Groq 驱动的 Llama 3)。 3、修改 openclaw.json 进行绑定 这是实现“互不干扰”的核心。 agents.list 中定义它们,并在 bindings 中设置路由: { "agents": { "list": [ { "id": "boss-manager", "model": "gemini
从OpenAI的GPT系列、Anthropic的Claude家族,到Meta的Llama开源生态、Google的Gemini、MistralAI的高效模型,再到中国本土的Kimi、GLM、Qwen、DeepSeek OpenAIgpt-4o,gpt-4-turbo,gpt-3.5-turbo多模态、函数调用成熟Metallama-3.1-70b,llama-3.2-90b开源、可商用Googlegemini-1.5-pro,gemini 90b-instruct8B轻量openrouter/meta/llama-3.1-8b-instruct代码专精openrouter/meta/llama-3.1-70b-code-instructGoogle(Gemini 系列)用途模型引用超长上下文openrouter/google/gemini-1.5-pro-002快速响应openrouter/google/gemini-1.5-flash-002多模态openrouter /google/gemini-pro-visionMistralAI用途模型引用通用大模型openrouter/mistralai/mistral-large-latest代码生成openrouter/
想必大家已经知道并且玩上OpenClaw(Clawdbot)了 还不知道OpenClaw是什么? 一篇文章搞懂并教你快速搭建属于自己的OpenClaw >> OpenClaw一键秒级部署指南 现在Lighthouse已经适配了国内的im软件(QQ、企业微信、飞书、钉钉),可以直接使用面板来完成配置。 使用 Google Gemini API,以Gemini 3.1 Pro 模型为例: { "provider": "google", "base_url": "https://generativelanguage.googleapis.com -3.1-pro-preview", "name": "Gemini 3.1 Pro" } } OpenAI (GPT) 官方文档:https://developers.openai.com Token消耗过快 OpenClaw 在调用模型时会携带较多上下文信息,以保证任务连贯性与准确性,因此 Token 消耗可能较高。建议在使用时关注 Token 用量与计费情况
推荐模型:推荐使用gemini-3-flash-preview模型,该模型具有超大上下文窗口(1Mtokens)、快速响应速度和优秀的性价比,非常适合作为OpenClaw的后端模型。 等需要/v1后缀-anthropic-messagesClaude不需要/v1后缀PromptCaching、ExtendedThinking6.1.3配置示例OpenAI协议(Gemini模型)展开代码语言 :TXTAI代码解释MODEL_ID=gemini-3-flash-previewBASE_URL=http://localhost:3000/v1API_KEY=your-api-keyAPI_PROTOCOL )BASE_URL=http://localhost:3000/claude-kiro-oauth#GeminiCLI(OpenAI协议)BASE_URL=http://localhost:3000/gemini-cli-oauth /v1#Antigravity(OpenAI协议)BASE_URL=http://localhost:3000/gemini-antigravity/v16.2Gateway配置参数说明默认值OPENCLAW_GATEWAY_TOKENGateway
然后我自己试了很多的模型,因为这玩意Token确实烧的很恐怖,所以想着省一点,Claude Opus 4.5、GPT 5.2、Gemini 3 Pro、Kimi k2.5、GLM 4.7等等等等。 嗯,这玩意现在就是我在OpenClaw上的主力模型了,贵确实是贵,主要是我又Gemini Ultra会员,有海量的Claude Opus 4.5的额度,你们没有的话,可以用其他的做平替。 而这时,因为OpenClaw的手机独特机制还有封装了Nano Banana Pro的Skills,所以,只需要给它一个Gemini的API,你就可以直接在手机上,用飞书发消息,来用Banana画图P图了 至于Gemini API...因为我是Gemini Ultra会员,所以,他们每个月送100美刀的额度,其实说实话,够我们画个天荒地老了。。 Pro会员有10刀,Ultra会员有100刀,超香。 也可以通过这个方式,直接通过飞书,用上Claude、Gemini、GPT。。。 我就问你,香不香吧。 六. 桌面截图 这个...可能是我的个人的小癖好。
方式 1(推荐):通过应用管理面板安全访问 OpenClaw WebUI方式 2:通过本地终端 SSH 隧道访问 OpenClaw WebUI方式 1(推荐):通过应用管理面板安全访问 OpenClaw 步骤 1:进入应用管理登录腾讯云控制台,定位至已部署 OpenClaw 的轻量应用服务器。进入该实例的“应用管理”页面,点击“安全开启OpenClaw面板”按钮。 步骤 2:确认面板开启设置系统将弹出“开启OpenClaw面板”对话框。 步骤 4:登录 OpenClaw 面板点击页面下方的"立即访问"按钮,浏览器将打开 OpenClaw WebUI 登录页面。 方式 2:通过本地终端 SSH 隧道访问 OpenClaw WebUI本方法通过建立本地终端的 SSH 隧道来安全访问 OpenClaw WebUI,适合熟悉命令行工具及拥有一定开发基础的用户。
一、模型与提供商更新:支持Google Gemini 3.1与火山引擎生态 本次更新在模型层面新增了 Google Gemini 3.1 支持(google/gemini-3.1-pro-preview 根命令保持 openclaw -v 作为版本显示,不再与子命令的 -v 或 --verbose 冲突。 2. 这一系列变更使openclaw在分布式执行、沙箱隔离、安全传输与身份管理上迈入企业级安全标准。 十三、总结与价值展望 代码地址:github.com/openclaw/openclaw openclaw v2026.2.21是一次跨层级的全面进化。 • 更开放:支持Gemini 3.1与中国云生态接入。 • 更稳定:Memory/QMD与Agent系统重构。 • 更智能:多渠道状态反应与可视化增强。